In recent years, machine learning has achieved impressive results across different application areas. However, machine learning algorithms do not necessarily perform well on a new domain with a different distribution than its training set. Domain Adaptation (DA) is used to mitigate this problem. One approach of existing DA algorithms is to find domain invariant features whose distributions in the source domain are the same as their distribution in the target domain. In this paper, we propose to let the classifier that performs the final classification task on the target domain learn implicitly the invariant features to perform classification. It is achieved via feeding the classifier during training generated fake samples that are similar to samples from both the source and target domains. We call these generated samples domain-agnostic samples. To accomplish this we propose a novel variation of generative adversarial networks (GAN), called the MiddleGAN, that generates fake samples that are similar to samples from both the source and target domains, using two discriminators and one generator. We extend the theory of GAN to show that there exist optimal solutions for the parameters of the two discriminators and one generator in MiddleGAN, and empirically show that the samples generated by the MiddleGAN are similar to both samples from the source domain and samples from the target domain. We conducted extensive evaluations using 24 benchmarks; on the 24 benchmarks, we compare MiddleGAN against various state-of-the-art algorithms and outperform the state-of-the-art by up to 20.1\% on certain benchmarks.
translated by 谷歌翻译
土匪算法已成为交互式建议的参考解决方案。但是,由于这种算法直接与用户进行改进的建议,因此对其实际使用提出了严重的隐私问题。在这项工作中,我们通过基于树的机制提出了一种差异性的线性上下文匪徒算法,以将拉普拉斯或高斯噪声添加到模型参数中。我们的关键见解是,随着模型在在线更新过程中收敛时,其参数的全局灵敏度随着时间的推移而缩小(因此命名为动态全局灵敏度)。与现有解决方案相比,我们动态的全球敏感性分析使我们能够减少噪声以获得$(\ epsilon,\ delta)$ - 差异隐私,并具有$ \ tilde o(\ log {t} \ sqrt中的噪声注入引起的额外遗憾) {t}/\ epsilon)$。我们通过动态全局灵敏度和我们提出的算法的相应上后悔界限提供了严格的理论分析。合成和现实世界数据集的实验结果证实了该算法对现有解决方案的优势。
translated by 谷歌翻译
我们应对在分布式环境中学习内核上下文匪徒的沟通效率挑战。尽管最近的沟通效率分布式强盗学习取得了进步,但现有的解决方案仅限于简单的模型,例如多臂匪徒和线性匪徒,这阻碍了其实用性。在本文中,我们没有假设存在从功能到预期奖励的线性奖励映射,而是通过让代理商在复制的内核希尔伯特(RKHS)中协作搜索来考虑非线性奖励映射。由于分布式内核学习需要传输原始数据,因此引入了沟通效率的重大挑战,从而导致沟通成本增长线性W.R.T.时间范围$ t $。我们通过装备所有代理通过通用的nystr \“ {o} m嵌入,随着收集更多的数据点的收集。我们严格地证明我们的算法可以以遗憾和通信成本达到次线性率,我们可以通过适应性更新的嵌入来解决这个问题。 。
translated by 谷歌翻译
现有域适应(DA)算法训练目标模型,然后使用目标模型对目标数据集中的所有样本进行分类。虽然这种方法试图解决源和目标数据来自不同分布的问题,但它无法认识到目标域内的可能性,某些样本比目标域更接近源域的分布领域。在本文中,我们开发了一种新颖的DA算法,即强制转移,该算法涉及这种情况。解决这一难题的一个直接但有效的想法是,使用分布外检测算法来决定在测试阶段,给定样品是否更接近源域,目标域或两者都不接近。在第一种情况下,该样本将提供给对源样本培训的机器学习分类器。在第二种情况下,该样本将提供给对目标样本训练的机器学习分类器。在第三种情况下,该样本被丢弃,因为既不是在源训练的ML模型,也不是在目标上训练的ML模型不适合对其进行分类。众所周知,神经网络中的前几个层提取了低级特征,因此可以从三种不同情况下对样品进行分类,以在三种不同情况下经验确定的层后进行样品的激活分类。强制转移实现了这个想法。在三种类型的DA任务上,我们优于与之相比的最新算法。
translated by 谷歌翻译
在线学习排名(OL2R)近年来吸引了巨大的研究兴趣,因为它在避免在离线监督排名模型学习中避免昂贵的相关标签来吸引昂贵的相关标签。这样的解决方案探讨了未知数(例如,故意呈现顶部位置的选定结果)以改善其相关性估计。然而,这触发了对其排名公平的担忧:不同的物品组可能在OL2R过程中接受差异治疗。但是现有的公平排名解决方案通常需要事先需要了解结果相关性或表演的排名,这与OL2R的设置相矛盾,因此不能直接应用于保证公平性。在这项工作中,我们提出了一般的框架,以实现由奥尔200R小组暴露定义的公平性。关键的想法是为了校准公平控制,相关学习和在线排名质量的探索和开发。特别是,当模型正在探索一组相关性反馈的结果时,我们将探索限制在随机排列的子集中,其中维护跨组的公平性,而反馈仍然不偏见。理论上,我们证明了这种策略在OL2R遗憾地介绍了最小的扭曲,以获得公平性。在两个公共学习中进行了广泛的实证分析,以对基准数据集进行排名,以展示所提出的解决方案的有效性与现有的公平OL2R解决方案相比。
translated by 谷歌翻译
图表卷积网络(GCNS)由于图形学习任务的优异性能,因此引起了感兴趣的激增,但也显示出对抗对抗攻击的脆弱性。在本文中,研究了有效的曲线图结构攻击以破坏傅立叶域中的图形光谱滤波器。我们基于图拉普拉斯的特征值来定义光谱距离,以测量光谱滤波器的破坏。然后,我们通过同时最大化任务特定的攻击目标和所提出的光谱距离来生成边缘扰动。实验表明,在训练和测试时间都表现出拟议的攻击中所提出的攻击的显着效果。我们的定性分析显示了攻击行为与谱分布的强加变化之间的连接,这提供了最大化光谱距离的经验证据是改变空间域中图形结构的结构特性和傅立叶中的频率分量的有效方式领域。
translated by 谷歌翻译
由于推荐基本上是比较(或排名)的过程,良好的解释应该向用户说明为什么一个项目被认为比另一个项目更好,即关于推荐项目的比较解释。理想情况下,在阅读解释之后,用户应达到与系统的相同的项目排名。不幸的是,尚未对这种比较解释支付的研究注意力。在这项工作中,我们开发了提取物和精炼架构,以解释来自推荐系统的一组排名项目之间的相对比较。对于每个推荐的项目,我们首先将一个句子从其相关审核中提取一个句子,最能诉诸于一组参考项的所需比较。然后,该提取的句子通过生成模型相对于目标用户进一步阐述,以更好地解释为什么建议该项目。我们根据BLEU设计一个新的解释质量指标,指导提取和细化组件的端到端培训,避免生成通用内容。对两个大型推荐基准数据集的广泛离线评估和针对一系列最先进的可解释的建议算法的严重用户研究表明了比较解释的必要性和我们解决方案的有效性。
translated by 谷歌翻译
图形结构的开发是有效地学习节点表示的关键,该节点在图表中保留有用信息。图表的一个显着性属性是,节点的潜在分层分组存在于全局透视图中,其中每个节点根据其相邻节点组成的上下文向特定组表示其成员资格。大多数事先作用忽略此类潜在组和节点的成员资格到不同的组,在建模邻域结构时,更不用说层次结构。因此,它们缺乏对图表中不同环境下的节点的全面了解。在本文中,我们提出了一种用于嵌入图形嵌入的新型分层周度成员资格模型,其中基于其邻近的上下文动态发现每个节点的潜在成员资格。在聚合相邻状态以生成节点嵌入时,执行两个组级和单个级别的关注。我们介绍了结构约束,明确规范每个节点的推断成员资格,使得捕获明确定义的分层分组结构。所提出的模型在节点分类和链路预测任务中嵌入解决方案的一组最先进的图表,以及包括引文网络和社交网络的各种图表中的链路预测任务。定性评估随着推断的成员资格可视化学习节点嵌入式,这证明了成员资格层次结构的概念,并启用了图形中的可解释的嵌入学习。
translated by 谷歌翻译
我们研究对线性随机匪徒的对抗攻击:通过操纵奖励,对手旨在控制匪徒的行为。也许令人惊讶的是,我们首先表明某些攻击目标永远无法实现。这与无上下文的随机匪徒形成了鲜明的对比,并且本质上是由于线性随机陆上的臂之间的相关性。在这一发现的激励下,本文研究了$ k $武装的线性匪徒环境的攻击性。我们首先根据武器上下文向量的几何形状提供了攻击性的完全必要性和充分性表征。然后,我们提出了针对Linucb和鲁棒相消除的两阶段攻击方法。该方法首先断言给定环境是否可攻击;而且,如果是的话,它会付出巨大的奖励,以强迫算法仅使用sublinear成本来拉动目标臂线性时间。数值实验进一步验证了拟议攻击方法的有效性和成本效益。
translated by 谷歌翻译
图形上的组合优化问题(COP)是优化的基本挑战。强化学习(RL)最近成为解决这些问题的新框架,并证明了令人鼓舞的结果。但是,大多数RL解决方案都采用贪婪的方式来逐步构建解决方案,因此不可避免地对动作序列构成不必要的依赖性,并且需要许多特定于问题的设计。我们提出了一个通用的RL框架,该框架不仅表现出最先进的经验表现,而且还推广到各种各样的警察。具体而言,我们将状态定义为解决问题实例的解决方案,并将操作作为对该解决方案的扰动。我们利用图形神经网络(GNN)为给定的问题实例提取潜在表示,然后应用深Q学习以获得通过翻转或交换顶点标签逐渐完善解决方案的策略。实验是在最大$ k $ cut和旅行推销员问题上进行的,并且针对一系列基于学习的启发式基线实现了绩效改善。
translated by 谷歌翻译